Prima di entrare nel vivo della trattazione, una doverosa presentazione della materia e dell'opera che la affronta.
1.1 Microscopia... cui prodest?
Questo primo capitolo è rivolto ai lettori scettici e completamente a digiuno dell'argomento. Cercheremo di interessare un ideale fruitore del testo che dubiti del fatto che la materia affrontata possa essere considerata una disciplina a se stante, mostrandone e valorizzandone invece il significato, le origini storiche, l'utilità attuale e anche quella prevedibile nel futuro immediato. Inoltre getteremo le basi per una più agevole comprensione dei capitoli successivi, chiarendo subito alcuni concetti importanti, riguardanti la qualità di un'indagine microscopica e le discipline ad essa strettamente legate, come il trattamento delle relative immagini.
1.1.1 Che cos'è la microscopia
"Ad un microscopio si vede la superficie delle cose. Esso le ingrandisce e le rende più chiare, ma allo stesso tempo ingrandendole non ci mostra la realtà. Non pensiate che state vedendo la realtà intrinseca che le cose in se stesse possiedono". Feng-shen Yin-Te (1771-1810) ne "Il Microscopio", traduzione libera. (A proposito dell'osservazione in questo brano, si vedano le immagini di illusioni ottiche in Fig. 1.2 e Fig. 3.25 per la microscopia ottica, e le discussioni sugli artefatti nelle immagini SPM nei paragrafi 3.1.5, 3.2.2, 3.3.4).
Il termine deriva dal greco mikros (piccolo) e skopeo (guardare a). Sin dagli albori della scienza antica l'uomo si è sempre posto il problema di riuscire a vedere e capire la struttura dei corpi con sempre maggiore finezza e dettaglio. In tempi più recenti, a partire dalla metà del millennio che sta per finire, gli alchimisti prima e i chimici poi hanno raccolto questo testimone; ma è in particolare con i biologi e i medici che la microscopia moderna ha spinto sempre più fortemente in questa direzione, con l'intenzione di esaminare e comprendere la struttura delle cellule, dei batteri, dei virus e delle particelle colloidali. Tralasciando gli studi fisici di inizio secolo relativi ai comportamenti quantistici interni agli atomi della materia, (comportamenti verificabili solo in condizioni fortemente dinamiche, con esperimenti ad alte energie coinvolgenti essenzialmente urti tra particelle accelerate in percorsi molto estesi), la "microscopia", intesa come analisi della materia in condizioni di equilibrio o quasi-statiche ` stata inoltre oggetto di interesse da parte di un'altra grande categoria di scienziati. Questi in un certo senso si sono rivolti a studi di carattere più ingegneristico che di puro sapere, cioè volti più alla realizzazione di nuovi "oggetti" di utilità comune che non alla ricerca pura intesa alla sola conoscenza delle leggi della natura: parliamo della cosiddetta moderna Scienza dei Materiali. Gli studiosi di questa disciplina e spesso anche i geologi, interessati alla materia inanimata all'opposto dei biologi e dei medici sopra ricordati, hanno voluto con i microscopi analizzare le disomogeneità e le imperfezioni nei metalli, nei cristalli in genere e nelle ceramiche.
1.1.2 Le origini della microscopia
Chi abbia inventato il primo strumento del genere non è possibile dirlo con sicurezza. Certamente il primo telescopio, inventato da Galileo nei primissimi anni del 1600, precedette l'invenzione del suo parente dedicato al mondo dell'infinitamente piccolo. Uno dei primi microscopi conosciuti è dovuto all'olandese Anton von Leeuwenhoek (1632-1723), e consisteva semplicemente in un'unica lente convessa molto potente e in un porta-campione la cui posizione era regolabile rispetto alla lente per mezzo di un asse a vite.
Fig. 1.1: uno dei 550 microscopi prodotti da Anton van Leeuwenhoek.
Con questo strumento elementare era possibile comunque ingrandire già fino a valori di 400x, e il suo inventore fu in grado pertanto di scoprire i protozoi, gli spermatozoi ed i batteri, e di classificare i globuli rossi in base alla forma. Il fattore limitante di quel primo rudimentale microscopio era la qualità della lente convessa. Il problema poté essere risolto con l'aggiunta di un'altra lente che ingrandiva l'immagine fornita dalla prima. Il microscopio composto così realizzato, consistente in una lente obbiettivo e in una lente oculare dotate di un meccanismo di movimento relativo per la focalizzazione, e di uno specchio o una sorgente di luce e di un supporto per il posizionamento e lo spostamento dei campioni, è tuttora la base per i più elementari microscopi ottici. Questi strumenti raggiungono ingrandimenti dell'ordine di 1000x, e consentono all'occhio umano di risolvere oggetti separati di 0,0002 mm (cioè 0,2 micron). Nella continua ricerca di risoluzioni maggiori ci si accorse presto che, benché in teoria, aggiungendo lente a lente, si potesse ottenere una risoluzione illimitata, il potere risolutivo di un microscopio era comunque limitato dalla lunghezza d'onda della luce utilizzata per illuminare l'oggetto da osservare. Utilizzando luce blu o ultravioletta si otteneva un lieve miglioramento; l'immergere il campione e l'estremità dell'obiettivo in un mezzo con alto indice di rifrazione (olio) forniva ancora un altro piccolo miglioramento, ma anche con tutti questi accorgimenti non si riusciva a superare di molto la risoluzione dei 100 nm.
Questi limiti e molti altri ancora sarebbero stati superati con la microscopia moderna, la cui storia ed evoluzione è affrontata nel capitolo successivo.
1.1.3 Perché è importante oggi la microscopia
Una delle applicazioni più moderne nel campo della Fisica della Materia, ed in particolare dello Stato Solido, è l'analisi delle superfici di campioni di varia natura mediante i "microscopi" delle nuove generazioni; (abbiamo posto il termine microscopi tra virgolette perché presto vedremo come questi strumenti siano diversi da ciò che, normalmente, una persona non esperta del settore possa considerare un microscopio). Da questa analisi si possono ricavare infatti non solo delle immagini dei campioni in esame, e quindi la loro morfologia, raffigurante la struttura su scala micro- e nano-scopica, ma anche importanti informazioni relative alle proprietà dei materiali analizzati. Infatti, già indirettamente, tramite l'aspetto esteriore (cioè le sole immagini standard) è possibile talvolta giungere a conclusioni interessanti sulla composizione dei campioni, ovvero il loro contenuto chmico-fisico che va oltre la forma, (laddove si riesca a distinguere i diversi componenti del campione in base all'aspetto delle unità elementari, molecolari o di dimensioni superiori, dette domini, che lo compongono, o dalla diversa organizzazione strutturale di questi). Non solo, ma i nuovi microscopi consentono di ottenere anche "immagini" che non sono semplicemente morfologiche, cioè raffigurazioni della forma microscopica del campione, ma costituiscono vere e proprie mappe che indicano, almeno qualitativamente (ma spesso anche quantitativamente, fornendo precise misure numeriche) in quale zona dell'area analizzata sia maggiore il valore di una data entità fisica o chimica, una grandezza specifica come l'elasticità, l'adesione, la funzione lavoro od altre, collegata a un preciso comportamenti del campione. Questo è possibile inoltre relativamente al comportamento dei campioni non soltanto in prossimità delle superfici stesse, che costituiscono sempre un confine molto singolare ("la superficie l'ha inventata il diavolo", si dice in Fisica), sul quale i corpi manifestano fenomenologie particolari (pensiamo all'ossidazione e ad altri fenomeni chimico-fisici specifici dei contorni degli oggetti macroscopici), ma anche nel loro "interno", ovvero nel cosiddetto bulk, dove, lontano da effetti di disturbo delle superfici e dei mezzi materiali (o dei fenomeni fisici) esistenti oltre questi confini, le proprietà di comportamento sono quelle caratteristiche, in maniera univoca ed inequivocabile, della composizione e della struttura del campione in esame.
1.1.4 Scopo della presente opera
Quindi, ricapitolando, microscopia significa oggi sì osservazione secondo il senso comune, cioè generazione di immagini nello spazio fisico, bi- o tri-dimensionale, ma anche osservazione in un senso fisico più vasto, ovvero stima di quantità non legate al semplice aspetto visivo, ma ad altre proprietà non immediatamente riconoscibili eppure cariche di significato. Questo in particolare grazie ai microscopi della classe SPM (sezione 2.6, capitolo 3), la cui vera forza, che risiede nella caratteristica di possedere un range dinamico molto ampio, in grado di andare dalla risoluzione propria dei microscopi ottici a quella dei microscopi elettronici, è stata ulteriormente rafforzata dalle recenti innovazioni che hanno permesso di dotare questi strumenti di nuove capacità di misurazione, per cui sono nati dispositivi in grado di acquisire la conduttività superficiale di un campione o la sua distribuzione superficiale di carica, l'attrito o i campi magnetici localizzati, ed altre proprietà ancora.
Se tuttavia fossero limitati alla semplice "osservazione" sopra descritta, soltanto una questione di mera evoluzione distinguerebbe sostanzialmente gli strumenti più moderni dai più antichi microscopi (quelli ottici, per intenderci). Invece ancora un grosso passo manca alla nostra descrizione per costituire una raffigurazione completa della situazione attuale in questa branca della scienza, passo che dev'essere necessariamente fatto per comprendere ciò che ulteriormente arricchisce di significati queste tecnologie; si tratta della possibilità di modificare i campioni secondo precise "direzioni", in modo da alterare le proprietà evidenziate: la nano-lavorazione, e questo " qualcosa di sostanzialmente nuovo rispetto ad un passato pure non molto lontano.
Concludendo possiamo quindi affermare che questo saggio si propone di introdurre il lettore non esperto della specifica materia nel mondo delle nuove microscopie, che alle soglie del nuovo millennio si mostra estremamente arricchito rispetto a quello che poteva offrire lo stesso panorama solo che una ventina d'anni or sono; queste microscopie sono inoltre destinate sempre più ad una diffusione ad ampio raggio nella vita comune, dai laboratori d'analisi medica e biologica ai laboratori didattici delle scuole superiori o dei primi anni d'università, e vale pertanto la pena di affrontare oggi un tentativo di un loro inquadramento generale, passando per una introduzione storica ragionata che consenta di collegare con un filo logico tutte le molteplici tecnologie esistenti in questo campo estremamente differenziato, per mostrare quale sia stata la loro evoluzione fino ad oggi, quale sia la loro attuale utilità, e quale la diffusione che da questa deriva nel mondo scientifico e tecnologico odierno. Infine si cercherà di proporre lo scenario di una utilizzazione futura sempre più spinta nel campo naturale d'applicazione degli strumenti in questione, quello delle Nanotecnologie.
Il principio che ha ispirato la presente opera è quello della divulgazione scientifica, svolta pertanto con termini immediatamente comprensibili alla maggior parte dei comuni lettori, ma al tempo stesso senza abbassare troppo il livello della trattazione; pertanto in ogni parte del testo si è cercato di utilizzare un linguaggio lontano da eccessivi tecnicismi, e ovunque compaiano termini tecnici è stata fornita comunque contestualmente una breve definizione o spiegazione di questi. Cionondimeno non era pensabile che, sfruttando concetti di uso comune in Fisica e, più in generale, in varie altre branche della tecnologia moderna, si ricorresse sempre ed estensivamente a spiegazioni dei fenomeni comuni chiamati in causa a monte; pertanto è in ogni caso richiesta una certa familiarità ed attitudine minima con gli studi e la mentalità scientifici e con la comune terminologia utilizzata nelle discipline afferenti a questo campo del sapere umano.
1.2 Nozioni... al contorno
Che cosa determina la qualità di un microscopio, ovvero qual è la grandezza che identifica la sua "potenza"? E in che unità si esprimono le dimensioni microscopiche? Le immagini prodotte da uno strumento di microscopia sono sempre e solo immediatamente fruibili così come appena ottenute, o è possibile avere di più con operazioni accessorie riguardanti il loro trattamento? A questi quesiti per certi aspetti preliminari cerchiamo di suggerire una risposta fin da prima dell'inizio della trattazione vera e propria del nostro oggetto di riflessione.
1.2.1 Risoluzione, ingrandimento e unità di misura
Vogliamo in questo paragrafo fermarci un istante a chiarire due concetti fondamentali, di cui uno verrà estesamente utilizzato nel seguito. In condizioni di illuminazione ideale l'occhio umano senza alcuno strumento di supporto è in grado di distinguere due punti a distanza di 0,2 mm l'uno dall'altro, (ovvero 200 micron). Se i punti sono più vicini, ne sarà visto solo uno. Questa distanza viene chiamata potere risolutivo o risoluzione dello strumento "occhio". La risoluzione di un microscopio determina il suo massimo ingrandimento. In microscopia ottica è solo necessario ingrandire la risoluzione a 0,2 mm, potere risolutivo dell'occhio umano, per consentire di osservare tutti i dettagli di un oggetto. Un ingrandimento superiore non rivela alcuna ulteriore informazione, e non è pertanto necessario. Sarebbe come stampare su un cartellone pubblicitario un'immagine, quindi renderla grandissima, ma senza aumentare il numero di "punti" elementari (pur tuttavia divenuti molto grandi, diciamo come "mattonelle"), ed evidenzierebbe anzi il carattere di composizione dell'immagine da parte di diverse sub-unità, col risultato di un effetto sgradevole sull'osservatore; è la comparsa della quadrettatura che talvolta si incontra nelle foto sulle riviste, impostate evidentemente in fase di stampa in maniera non corretta, (ormai tutte le pubblicazioni del genere vengono composte al calcolatore). Il vero parametro importante di un microscopio è pertanto la risoluzione, e non l'ingrandimento massimo ottenibile: questo viene spesso indicato soltanto per dare un'idea di quanto l'immagine di un oggetto viene di fatto ingrandita. (Occorre anche osservare che l'ingrandimento si riferisce alle dimensioni lineari di un corpo, per cui, se noi vediamo un oggetto "lungo" o "largo" 2 micron in un microscopio con ingrandimento 1000x, lo percepiremo all'oculare con estensione in quella direzione pari a 2 micron x 1000 = 2 mm, ma se per dimensioni intendiamo l'area della superficie coperta dall'oggetto sul vetrino, nel piano visualizzato dal microscopio, perpendicolare all'asse ottico, quest'area sarà amplificata quindi di un fattore (ingrandimento)2).
Le unità di misura più utilizzate in microscopia sono il micrometro (indicato talvolta, secondo una denominazione antica, col termine micron), avente simbolo mm, il nanometro, nm, e l'Ångström, Å. Micrometro e nanometro sono due sub-unità naturali del metro, dove i prefissi micro- e nano-, come anche per tutte le altre grandezze fisiche diverse dalla "lunghezza", stanno ad indicare un fattore moltiplicativo (un sottomultiplo, in quanto minore di 1) pari a 10-6 (un milionesimo) e 10-9 (un miliardesimo) della unità di misura fondamentale (in questo caso il metro), rispettivamente. L'Å invece è un'unità di misura di lunghezza atipica, che fuoriesce da questa regola dei sottomultipli "comuni" dell'unità fondamentale: è sostanzialmente usata per le dimensioni atomiche (il raggio del più piccolo atomo esistente cioè dell'Idrogeno H, costante fisica nota come raggio di Bohr, vale circa mezzo Ångström), ed è pari a 10-8 cm, ovvero 1/10 di nm.
1.2.2 Dopo la raccolta delle immagini
Ma microscopia non significa solo ottenere delle immagini di campioni ed essere in grado di registrarle, cosa sempre necessaria per un lavoro esteso e che preveda la realizzazione di una memoria stabile degli esperimenti, la quale riservi i dati acquisiti anche a future elaborazioni e reinterpretazioni alla luce di nuove scoperte. Quanto più le immagini ottenute ed ottenibili sono ricche di significati e composte di elementi, ovvero determinate da effetti e fenomeni molteplici ed intimamente correlati, tanto più per comprendere bene il loro significato, cioè le vere informazioni in esse contenute, è necessario anche un lavoro di analisi delle immagini, spesso molto dispendioso in termini di tempo e quindi effettuato con calma "a posteriori", il quale richiede in supporto all'analisi una preventiva elaborazione delle immagini. Questa attività costituisce una vera e propria disciplina a se stante, detta a volte IA & IP: Image Analysis and Image Processing, per l'appunto, con dicitura inglese. Vogliamo qui definire queste due tipologie di operazioni, lasciando intravvedere il tipo di interventi che esse possono indurre sulle immagini. Non è infatti nello scopo del presente testo costituire un esauriente trattato di elaborazione delle immagini; tuttavia certamente alcuni cenni relativi a tali tecniche potranno tornare utili come bagaglio generale e come punto di partenza per successivi approfondimenti a chiunque voglia cimentarsi in uno studio più avanzato della microscopia.
Una precisazione è necessaria a questo punto. Nella pratica, l'immagine così come appena acquisita da parte di un qualsiasi generico strumento, e quindi non ancora elaborata in alcun modo, viene chiamata (o meglio viene così chiamato l'insieme di dati da essa rappresentato) raw-data, cioè letteralmente "dati grezzi". Quindi, qualsiasi trattamento successivo con filtri od altri espedienti fa passare questa immagine originaria ad un'altra che, frutto di procedure di IP e IA, non è più "raw-data". Questo termine è infatti a volte utilizzato per sottolineare il fatto che, magari con alcuni difetti, un'immagine presentata è però assolutamente inalterata, e quindi non soggetta a manipolazioni "interessate" poco obbiettive, come capita a volte di vedere, ad esempio, nelle brochure degli strumenti di microscopia commerciali.
L'elaborazione delle immagini (IP) viene effettuata per due scopi distinti: migliorare l'aspetto stesso delle immagini e quindi la loro "presentabilità", e prepararle per la misura di determinate loro caratteristiche, cioè per estrarne tutte quelle informazioni che non sono immediatamente visibili ad occhio nudo (e questa è l'IA). Rientrano nell'IA, ad esempio, compiti come determinare il numero e la distribuzione di picchi di topografia, cioè dei cosiddetti cluster (agglomerati) o isole (agglomerati piatti, terrazze) nelle immagini, così come eventuali picchi di qualsiasi altra grandezza mappata che non sia la topografia, superiori ad un dato valore di soglia, (per topografia s'intende l'immagine della quota di "altezza" del campione rispetto al piano di base del vetrino portacampione); oppure anche misurare nell'immagine l'area di una superficie con determinate caratteristiche, e in generale fornire una qualsiasi informazione quantitativa relativa alla proprietà mappata nell'immagine. Ad esempio l'operazione da noi suggerita per determinare la rugosità di un'immagine di topografia nel sottoparagrafo 3.4.3.3 è una tipica procedura di IA tramite calcoli assistiti dal computer, che si rendono spesso necessari per la facilità con cui i nostri organi della visione cadono a volte in inganno nell'esaminare un'immagine.
Fig. 1.2: alcuni esempi di illusioni ottiche: a) i due segmenti orizzontali hanno uguale lunghezza ma quello superiore appare più lungo a causa del diverso orientamento dei segmenti diagonali; b) i corti segmenti che incrociano trasversalmente quelli più lunghi fanno sì che questi ultimi appaiano non paralleli; c) il triangolo bianco racchiuso dai cerchi neri appare più chiaro della carta circostante.
1.2.2.1 Uso dei colori nella rappresentazione
Per una precisa scelta, le immagini che presentiamo in questo testo sono esclusivamente in bianco e nero, o, più correttamente, in toni (o livelli) di grigio, dove ad un grigio più chiaro (fino ad un massimo pari al bianco, partendo dal nero) corrisponde un valore più alto della grandezza mappata (generalmente la quota topografica del campione sulla superficie visualizzata); tuttavia spesso si fa in microscopia un gran uso di colori nelle immagini: si tratta di "pseudo-colori", cioè colori non realistici ma associati appunto a determinate proprietà o grandezza fisiche o chimiche, colori che consentono quindi all'osservatore umano delle immagini di distinguere con maggior facilità diverse zone di livello, fornendo alla funzione di mappatura un ulteriore criterio discriminante facilmente "leggibile" dagli strumenti della visione umana, (si pensi ai colori nelle mappe topografiche, che tra l'altro sfruttano chiaramente analogie con mondo reale: il mare rappresentato in blu, dal più scuro per fondali più profondi al celeste per bassi fondali; la terra dal verde delle pianure al marrone delle terre emerse a quote intermedie, al bianco delle cime più alte idealmente innevate: ma ciò non significa che in pianura ci sia sempre erba verde o che sulle vette dei monti ci sia sempre la neve!) Una sola osservazione al proposito: i colori sono certamente utili spesso per evidenziare determinate caratteristiche delle immagini, ma considerando appunto il fatto che si tratta di pseudocolori e che le "palette" utilizzate (si chiamano così i set con le sequenze di pseudocolori adiacenti, ad esempio nel caso della topografia terrestre semplificata di cui sopra la sequenza blu-celeste-verde-marrone-bianco) possono essere selezionate a piacere in un gran campionario (nei software di elaborazione delle immagini esiste la possibilità di utilizzare una tra le tante di una apposita libreria, o anche di definirne una personalizzata). Questo fornisce da un lato una caratteristica di versatilità alla rappresentazione, ma dall'altro si presta anche ad una manipolazione dei dati in modo che questi sembrino fornire certe informazioni piuttosto che altre, e comunque richiede quasi sempre uno sforzo ulteriore per una vera comprensione profonda dell'immagine. Per questo, nonostante la validità estetica, l'utilizzo delle palette di pseudocolori è in genere sconsigliabile, almeno per un utente alle prime armi e che voglia rivolgere la sua presentazione ad un pubblico non avvezzo ai suoi metodi specifici di rappresentazione (ovvero a quella particolare palette).
1.2.2.2 Rimozione del sottofondo
Almeno un paio di operazioni vengono quasi sempre effettuate indipendentemente dal caso specifico di immagine, e sono normalmente di grande utilità: la prima è la rimozione del sottofondo (in Inglese, background removal o tilt correction). Infatti accade spesso che lo strumento di visualizzazione, sia esso ottico o di diversa natura, presenta un difetto di calibrazione o taratura per cui, anche analizzando un perfetto orizzontale, questo venga rappresentato come un piano inclinato; (in pratica, in una rappresentazione in livelli di grigio dove "chiaro" corrisponde a valore "elevato", si vedrà sempre uno dei 4 angoli del quadrato dell'immagine un po' più scuro di tutto il resto, e l'angolo opposto al contrario un po' più chiaro). Questo offset variabile lungo l'immagine viene chiaramente sommato all'informazione sulle strutture superficiali di un eventuale campione successivo esaminato, sul quale magari, non essendo esso liscio e piatto, non è così immediato evidenziare tale difetto dello strumento. L'anomalia può essere comunque facilmente rimossa, sottraendo il piano originale da ogni generica immagine di un qualsiasi campione. Il piano originale viene determinato o acquisendo appunto in precedenza un'immagine con campione piatto e liscio (cioè praticamente senza campione), oppure a posteriori, dall'immagine unica del campione d'interesse, calcolando con metodi di fit il piano di sottofondo (background) dell'immagine, e sottraendo poi questo dall'immagine stessa. Come sempre accade in questa tipologia di applicazioni di IP, nella maggior parte dei casi l'effetto dell'elaborazione è senz'altro benefico, in quanto consente tra l'altro di sottrarre a questo effetto indesiderato di inclinazione fittizia del campione una parte del range di contrasto (l'intervallo di valori minimo e massimo che è possibile mappare in un'immagine, coi toni di grigio rispettivamente dal nero al bianco) che dovrebbe essere utilizzato esclusivamente per i dettagli superficiali del campione, e a questa funzione viene infatti in tal modo riassegnato; ma esistono anche casi di controindicazioni: se si visualizza uno scalino, la funzione di sottrazione del piano di sottofondo cercherà di "raddrizzarlo" erroneamente, trasformando la superficie a due livelli orizzontali dello scalino in una con profilo "a dente di sega"!
Esiste inoltre la possibilità, più complicata, che la superficie fittizia di background dell'immagine del campione sia non un semplice piano, ma una superficie curva, tipicamente una calotta sferica: in tal caso andrà rimossa dall'immagine originale proprio questo tipo di curva, ottenuta ancora una volta dall'immagine stessa con un fit stavolta non lineare nelle due variabili X e Y del piano di base, ma quadratico, cioè contenente come parametri dei coefficienti moltiplicativi delle potenze X2, Y2 e XY. Si veda, per un caso dell'occorrenza di queste distorsioni curve delle immagini, il paragrafo 3.1.5.
1.2.2.3 Espansione del contrasto
In qualsiasi strumento di visualizzazione, sia esso ottico o digitale, il contrasto nell'immagine ottenuta è solo in parte ottimizzabile inizialmente, in quanto dipende poi, caso per caso, dal contenuto dell'immagine, verificabile solo "a posteriori". Abbiamo già visto, descrivendo il problema precedente dell'inclinazione del piano di base del campione, come parte dei livelli di grigio sia in genere utilizzata male nelle immagini raw-data, e siamo stati in grado tuttavia di fornire delle procedure di recupero da questo inconveniente. Un altro problema che limita l'utilizzo dei livelli di grigio disponibili è legato al fatto che capita spesso che non tutto il range di livelli utilizzabili a priori per la rappresentazione venga effettivamente impiegato. L'operazione di espansione del contrasto consiste appunto in una redistribuzione dei valori di contrasto (i toni di grigio) in modo da utilizzare tutto il range disponibile per il dato sistema di visualizzazione. Quasi tutti i software di elaborazione delle immagini permettono non solo di modificare il contrasto manualmente, ma anche di provvedere all'espansione del contrasto (talvolta detta equalizzazione) in maniera ottimale automatizzata. Si tratta di un'operazione che, in immagini solo apparentemente sovraesposte, consente spesso di evidenziare facendoli emergere come dalla nebbia una gran quantità di dettagli utili.
Fig. 1.3: esempio di espansione del contrasto su un'immagine presa al microscopio ottico di un globulo rosso. A sinistra si vede l'immagine originale, a destra quella modificata, con i relativi istogrammi dei livelli di grigio, in alto: il primo presenta un'accumulazione di tutti i valori dell'immagine in una zona ristretta del range utile di grigi, mentre nel secondo l'intervallo di valori presenti nell'immagine è stato redistribuito su tutti i livelli di grigio utilizzabili, consentendo di evidenziare molti particolari in più nell'immagine.
È chiaro altresì che l'operazione opposta, riduzione (o, potremmo dire, "contrazione") del contrasto non ha senso, in quanto può solo far peggiorare l'immagine; inoltre si osservi che in generale è sempre meglio rischiare, in fase di acquisizione dell'immagine, di utilizzare solo una porzione minima del range di contrasto disponibile (inconveniente che è possibile correggere in seguito col procedimento appena descritto) che non spingersi ai limiti del contrasto, dove si rischia che tutta una serie di valori originariamente presenti nell'oggetto da analizzare caschino fuori dell'intervallo di valori rilevabili dallo strumento: in questo caso non esisterà mai nessuna procedura di IP e IA in grado di recuperare le informazioni non acquisite! Cioè occorre sempre ricordare, come regola zero del trattamento delle immagini, che possono essere evidenziate informazioni che sono comunque presenti anche se nascoste nelle immagini originali, ma non saremo mai in grado, una volta terminato l'esperimento, di estrapolare da queste informazioni a suo tempo non registrate: questa è sempre e solo una pia illusione del microscopista principiante o poco obbiettivo nel suo lavoro.
1.2.2.4 Filtri nello spazio reale
Una delle principali applicazioni dell'IP è la rimozione di difetti dalle immagini. Questi difetti sono tipicamente costituiti da rumore. La sorgente di rumore più comune è la statistica associata in un dispositivo di rivelazione dell'immagine al conteggio di particelle incidenti (siano essi fotoni luminosi o elettroni o altro). Questo caso si applica in particolare alle immagini da diffrazione di raggi X (paragrafo 2.3.1), dove il rapporto tra numero di elettroni incidenti e raggi X rivelati è particolarmente basso, da 105 a 106, o anche in tutti i casi in cui il dispositivo di visualizzazione delle immagini è uno schermo fluorescente (ad esempio nei SEM, paragrafo 2.2.2), attivato punto a punto da particelle incidenti. Esistono in questi casi fluttuazioni del numero di particelle che "impressionano" un determinato "schermo" di visualizzazione, e che possono essere eliminate con metodi statistici, o aumentando notevolmente il tempo "d'esposizione", in modo che eventuali anomalie si distribuiscano uniformemente su tutta la superficie analizzata (quindi facendo una media nel tempo, su i vari valori acquisiti in uno stesso punto), o facendo una media nello spazio dei valori istantanei, combinando in maniera pesata il valore in un punto con quelli in un intorno del punto. Questo secondo metodo si basa sul principio di "continuità dell'immagine", cioè assume che i valori nei punti immediatamente vicini non debbano ragionevolmente essere molto diversi da quello del punto considerato, e che se lo sono questo è dovuto a una qualche anomalia. In pratica ciò comporta l'assunzione che le dimensioni di un singolo punto nell'immagine siano molto più piccole di qualsiasi dettaglio che sia importante osservare nell'immagine. Si procede a questo punto nel seguente modo: se i punti sono quadrati, l'intorno più semplice e piccolo di un punto è il quadrato di lato 3 punti ad esso circostante. Esso contiene pertanto 9 punti, compreso quello "elaborato", al centro. Il "filtro" del tipo "media sull'intorno" più elementare e grossolano è quello che fa semplicemente la media aritmetica con uguale peso di tutti i valori nell'intorno: quindi, considerando la media "pesata" (caso generale), in questo caso il peso associato a ciascun punto nell'intorno è uguale e pari a 1 (Fig. 1.4 a)). Sarebbe possibile anche usare un intorno più vasto, sempre quadrato, di lato 5 (è evidente che intorni con dimensione laterale pari, ad esempio 2 o 4, non sarebbero simmetrici, cioè equidistanti agli estremi dal punto centrale, e sono quindi inadeguati). Un modo un po' più evoluto di fare la media è quello di dare comunque un peso maggiore al valore originale nel punto considerato: in parole povere possiamo cioè pensare che questo potrà pure essere talvolta "sbagliato", a causa di qualche effetto di disturbo (rumore), nel rappresentare un'ideale immagine "vera" in quel punto, ma è comunque probabile che sia più "giusto" di quelli nell'intorno, che possono a loro volta essere ugualmente "sbagliati" in valore e per di più non sono neanche nella posizione "giusta"; un tipo di media del genere può prevedere, ad esempio, i pesi in Fig. 1.4 b). Si osservi che i punti circostanti al centrale sulla croce verticale-orizzontale hanno peso maggiore di quelli sulla croce delle diagonali (la x, insomma); questo perché il peso deve naturalmente decrescere con la distanza dal punto elaborato, che è maggiore per i punti agli estremi del quadrato (in unità di distanza orizzontale e/o verticale tra i vari punti, questa è 2=1.4 invece di 1). In pratica i valori suggeriti sono tale che mappandoli in un istogramma lungo una determinata direzione d'attraversamento dell'intorno passante per il punto centrale, si ottiene una curva (l'approssimazione a barre di una curva) che si avvicina ad una gaussiana (funzione esponenziale del tipo exp(-x2)), che è la distribuzione con forma a campana detta normale o standard, in quanto rappresenta la più comune a cui obbediscono la maggior parte dei fenomeni casuali. Vista invece nelle due dimensioni, su un piano, come una superficie, la mappa dei valori peso in quell'intorno sembra come la cappella di un fungo leggermente prominente al centro, e questo filtro è detto talvolta anche top-hat o sombrero, per la tipica forma. Si possono usare anche varianti di dimensioni superiori (sempre con calcoli implementati via software), ad esempio 7x7 o 11x11, ma in genere per semplicità si usano quasi sempre solo gli intorni 3x3 o al più 5x5. Una cosa non è stata detta: quando interessi non solo migliorare l'immagine ma anche non perdere l'informazione quantitativa associata al punto considerato, è opportuno normalizzare i pesi alla loro somma, altrimenti il valore originale, oltre ad essere aggiustato in relazione ai valori intorno ad esso, viene inevitabilmente anche amplificato. Quindi i pesi negli intorni di cui sopra vanno in questo caso divisi ciascuno per il totale dei loro valori prima della normalizzazione, vedere Fig. 1.4 c) e d). Con questi filtri, detti passa-basso, vengono in pratica eliminate anomalie di singoli pixel, dovute a fenomeni di tipo salt-and-pepper (puntini bianchi e neri, errori in grande eccesso o grande difetto nella misura dei valori in quei punti) o rumori analoghi. D'altra parte quello che succede è che in questa media si possono anche perdere, insieme ai rumori, informazioni reali: i bordi delle strutture vengono sfumati, per cui se vi è uno scalino netto questo viene arrotondato, e in casi meno eclatanti si assiste come ad una scomparsa dei dettagli, dovuta ad una diffusione dei bordi. Si parla di "blurring". Come sempre tutto sta all'operatore stabilire, tramite una procedura del tipo "trial and error" (cioè per tentativi) quale sia il compromesso ideale, caso per caso, cioè ogni volta sulla specifica immagine in esame.
È chiaro che nel procedimento si perde inevitabilmente l'informazione dell'immagine vicino ai bordi, in corrispondenza dei quali vanno scartate delle strisce di contorno di ampiezza pari alla distanza del punto centrale dell'intorno dal bordo di questo, cioè ad esempio di 2 punti nel caso di un intorno 3x3, di 3 nel caso di un intorno 5x5, e così via. Infatti per i punti dell'immagine in queste strisce esterne non esistono sufficienti punti ulteriormente esterni nell'immagine a cui applicare l'algoritmo di media pesata.
Fig. 1.4: valori dei pesi nei filtri di tipo a intorno (detti anche di convoluzione, vedi sottoparagrafo 1.2.2.5 per il significato del termine) nei casi di: a) media aritmetica non pesata (ovvero con pesi tutti uguali); b) media pesata con profilo di tipo gaussiano (o top-hat o sombrero); c) d): le matrici corrispondenti ad a) e b), rispettivamente, ma con i valori normalizzati dei pesi, (cioè divisi per 9 e per 16, rispettivamente). Si è adottata un'approssimazione alle prime 4 cifre dopo il separatore (virgola) decimale.
Per concludere questo argomento, osserviamo che uno degli utilizzi maggiori dei filtri spaziali di tipo intorno ha per scopo non solo la semplice rimozione di difetti puntuali (defects correction) dovuti a rumore o altre cause, ma anche il cosiddetto Image Enhancement, che è un passo oltre, in quanto si propone il miglioramento dell'immagine originale tramite l'evidenziazione di determinate sue caratteristiche, positive, piuttosto che la rimozione di caratteristiche negative: la tipica applicazione del genere è quella dell'edge enhancement, ovvero il "rinforzo" dei bordi. Questo effetto è di solito richiesto anche in combinazione con un filtro passa-basso del tipo descritto in precedenza, in quanto il passa-basso elimina il rumore ma arrotonda anche i bordi sfumandoli, mentre nell'edge enhancement i bordi delle strutture elementari interne all'immagine vengono nuovamente evidenziati. In pratica questo scopo viene perseguito basandosi sulla identificazione dei bordi e sulla loro amplificazione. I contorni delle strutture vengono selezionati calcolando sostanzialmente le derivate (nelle varie direzioni, dette derivate parziali) di queste strutture all'interno dell'immagine, ovvero i punti in cui si passa dalla presenza all'assenza di una struttura, o viceversa (cioè identificando nell'immagine "discese" e "salite"). Filtro passa-basso per eliminare il rumore ed evidenziazione del contorno per ripristinare il corretto contrasto ai bordi possono essere fatte insieme, semplicemente sommando i pesi relativi di ciascun punto dell'intorno, nelle due matrici dei pesi di filtri del tipo a intorno (o di convoluzione). Vediamo in un caso specifico. L'operatore (ovvero la matrice) di edge enhancement più comunemente utilizzato è il cosiddetto Laplaciano (che in matematica corrisponde ad una derivata seconda, nelle varie direzioni, diciamo x o y, prendendo gli assi principali, dell'immagine), una delle approssimazioni del quale è riportata in Fig. 1.5 a), (con pesi non normalizzati). Il duplice effetto si ottiene sommando questa matrice al passa-basso in Fig. 1.4 b), in modo da fornire il filtro "complesso" in Fig. 1.5 c).
Fig. 1.5: valori dei pesi in un filtro a intorno normalizzato d), ottenuto sommando un edge enhancing di tipo Laplaciano a) ed un passa-basso a top-hat b). Questo operatore composto è una variante evoluta dell'operatore di sharpening, ottenuto dalla somma dell'immagine trattata con a) con l'immagine raw data, cioè ottenuto dall'applicazione di un filtro ricavato sommando a) ad un filtro identità che ha pesi tutti nulli tranne quello centrale pari a 1.
1.2.2.5 Filtri nello spazio delle frequenze
L'argomento di questo sottoparagrafo è senz'altro noto allo studioso di Fisica dello Stato Solido, della quale almeno in parte la microscopia, soprattutto quella contemporanea a scansione a sonda, &egarve; per certi aspetti una sotto-branca, o comunque una disciplina fortemente correlata. Il parallelo tra immagini del campione nello spazio reale e nello spazio delle frequenze è lo stesso che si ha in Fisica dello Stato Solido tra reticolo cristallino (che descrive i solidi cristallini regolari) e reticolo reciproco, cioè il "reticolo" ottenuto dal reticolo cristallino passando, tramite la trasformata di Fourier, nello spazio reciproco dello spazio reale tri-dimensionale, spazio reciproco che altro non è che uno "spazio" delle frequenze, nel quale cioè (e così nelle immagini dei campioni) i punti evidenziati corrispondono alle frequenze spaziali eventualmente identificate come ricorrenti nel campione (ovvero nelle sue immagini dello spazio "ordinario"). Per una definizione adeguata del reticolo cristallino e reciproco (ovvero spazio reale tri-dimensionale e spazio delle trasformate di Fourier o delle frequenze) si rimanda al breve saggio "Introduzione alla Fisica dello Stato Solido". Qui basta osservare che ad una qualsiasi immagine in cui siano presenti strutture disposte con regolarità è possibile identificare una certa "lunghezza d'onda" caratteristica che si ripete, ovvero un "periodo" spaziale e con esso una "frequenza" (il reciproco del periodo). La trasformata di Fourier è un'operazione di calcolo matematico complesso che permette di evidenziare questa frequenza, o meglio queste frequenze, in genere almeno due, per un'immagine bi-dimensionale, lungo i due assi principali, diciamo X e Y, dell'immagine. È quindi possibile operare sull'"immagine" delle frequenze presenti nell'originaria immagine spaziale piuttosto che su quella, in modo da o evidenziare le frequenze in questione (quando associate a caratteristiche "buone" dell'immagine, ad esempio nel caso di un'immagine a risoluzione atomica di un reticolo cristallino) o eliminarle (quando associate a caratteristiche "cattive" dell'immagine, ad esempio rumore periodico). Quindi si procede ad anti-trasformare l'immagine delle frequenze (applicando un operatore con effetto opposto a quello della trasformata di Fourier, operatore che in pratica è la trasformata stessa a meno di un diverso fattore moltiplicativo), ritornando così ad un'immagine nello spazio reale del campione (l'unica che è facilmente interpretabile "ad occhio" da parte di qualsiasi osservatore), ripulita però degli effetti spuri sempre presenti nell'immagine raw-data.
L'elaborazione nello spazio (o dominio, cioè campo d'azione) delle frequenze consente ulteriori funzionalità di IP rispetto all'elaborazione nello spazio reale (o dominio spaziale), ma è talvolta utilizzata anche nei casi trattabili nello spazio reale per comodità di calcolo: infatti se pure determinare la trasformata di Fourier è un'operazione gravosa dal punto di vista del calcolo per un computer, anche di più lo è l'operazione di filtro del tipo "intorno", soprattutto per dimensioni dell'intorno dal 5x5 in su, dette di "convoluzione" (cioè mescolamento, ragionato, della piccola matrice dei pesi nell'intorno del punto con ciascun punto della matrice di punti dell'immagine originale, lungo la quale possiamo pensare che vanga fatta scorrere la prima).
L'utilità dell'analisi di un segnale nel dominio delle frequenze è ben nota d'altronde all'ingegnere che affronta studi di Elettrotecnica o Teoria dei segnali (dove trasformate di Fourier o ancora di più di Laplace sono pane quotidiano).
Fig. 1.6: schermata di un tipico programma di elaborazione delle immagini in ambiente Windows. La discussione dettagliata del contenuto è riportata nel testo principale.
In Fig. 1.6 è presentata una galleria delle più tipiche osservazioni ed analisi che si svolgono in genere su un'immagine ottenuta con un microscopio. Il campione è costituito da una griglia di semisfere di oro di diametro 0,5 micron, ma potrebbe essere qualsiasi altro campione che mostri un'analoga "regolarità", come ad esempio un reticolo cristallino. A partire dall'originale in alto a sinistra viene mostrato l'ingrandimento di una porzione dell'immagine, che così amplificata evidenzia il limite di risoluzione (si vedono i punti, pixel sull'immagine originale, ingranditi come quadrati), problema superato con una "interpolazione" (ovvero sostituendo i punti intermedi tra due punti "a scalino" con valori anch'essi intermedi, e poi "lisciando" il tutto con un filtraggio ad intorno di tipo passa-basso). A mezza altezza a destra si vede il profilo del campione (cross-section) lungo la riga tracciata sull'immagine originale, mentre a sinistra si osserva l'immagine della trasformata di Fourier. Quest'ultima evidenzia le frequenze lungo gli assi X e Y caratteristiche dell'immagine a sinistra, e consente di calcolare esattamente il pitch ovvero il passo (lunghezza d'onda) della griglia. I punti spostati rispetto al centro (che corrisponde alla frequenza zero) lungo gli assi X e Y sono dotati di simmetrici, in posizioni uguali ed opposte rispetto agli assi (-X e -Y), per ovvi motivi di simmetria del campione stesso. (Si osservi che i punti non sono esattamente lungo gli assi X e Y ma inclinati, perché inclinato è l'orientamento della griglia nell'immagine originale).
Oltre alle frequenze caratteristiche del pattern periodico si notano nell'immagine della trasformata di Fourier anche alcune frequenze spurie, in prossimità del centro (cioè a basse frequenze). Rimuovendo questi picchi, come è stato fatto nell'immagine sottostante, ed applicando un'antitrasformata, si ottiene di nuovo un'immagine simile all'originale ma con meno disturbi (immagine più pulita).
Infine in basso a destra si osserva un istogramma molto fine che rappresenta la distribuzione di valori nell'immagine, centrata attorno ad un determinato valor medio, con una certa ampiezza. Si nota un solo picco perché, benché nel pattern periodico si distinguano sostanzialmente due valori ("collina" e "buca"), i profili delle semisfere sono tondi, non si tratta cioè di scalini, e in pratica tutti i valori intermedi tra i 2 valori estremi sono popolati nell'immagine.